Les Problèmes Techniques SEO qui Pénalise votre Site

Les Problèmes Techniques SEO qui Pénalise votre Site



Voici une listes d’anomalies SEO répandues, pouvant être fatales pour le site web, mais faciles à détecter et à résoudre. Il n’est pas nécessaire d’avoir une formation de développeur pour détecter et corriger ces anomalies afin d’améliorer votre référencement sur les moteurs de recherche.

Vérifier immédiatement l’indexation :



Après avoir mis votre site web en ligne, vous êtes certainement déjà demandé, pourquoi après avoir tapé votre nom de marque ou votre nom de domaine , votre URL n’apparaît pas dans les résultats de recherche.

Est-t-il envisageable d’obtenir un trafic organique intéressant et durable, si vous n’êtes pas correctement référencés sur les moteurs de recherche? La réponse est clairement Non. Et vous le savez.
En réalité votre site est bel est bien référencé. Mais comme vous venez le mettre en ligne récemment, son classement est tellement loins dans les SERP, qu’une main humaine peut difficilement l’atteindre.

Afin de connaitre l’indexation de nombre de pages de votre site, tapez sur la barre de recherche du moteur site:{votresite.com}, vous obtiendrez alors le nombre exacte de vos pages sur le résultat de recherche.



Le fichier: Robots.txt :



Le fichier Robot.txt est un fichier essentiel qui influence grandement votre site internet. C’est le premier fichier recherché par un robot d’indexation lorsque celui-ci explore votre site web. Le fichier robots.txt (au pluriel) contient des commandes adressées aux différents robots d’indexation, leur indiquant lesquelles des pages de votre site web peuvent ou non être indexées.
tapez votresite.com/robots.txt et vérifiez que le résultat n’est pas :
Si la ligne “disallow” est suivie de “/”, cela signifie tout simplement qu’aucune page de votre site ne sera indexée, ce qui est très mauvais pour votre trafic. Si vous constatez cette anomalie il est vivement conseillé de la corriger le plus rapidement possible.



L’utilisation de la balise meta “NOINDEX” :



La Balise meta “NOINDEX” ajoutée au code HTML de la page, est en général ajoutée par les développeurs d’un site web lorsque celui-ci est encore en cours de développement, afin de ne pas indexer celui-ci sur les moteurs de recherche. Il s’agit d’une balise puissante. Sa simple utilisation empêche l’indexation pour tous les robots de tous les moteurs de recherche. Lorsqu’un site web est fini, il est vivement recommandé de vérifier que la balise meta “NOINDEX” a étée supprimée du code. Sans quoi la page ne sera jamais indexée.



Utilisez un seul URL par contenu :



L’utilisateur ne se soucie pas vraiment si votre page d’accueil apparaît comme tous ces séparément:

www.example.com
example.com
www.example.com/home.html
example.com/home.html
Il est possible que différents URL pointent vers le même contenu. L’utilisateur se soucie peu de l’URL sur lequel il a cliqué pour accéder au contenu de vos pages. Cependant cela pourrait être sujet à confusion, car il arrive que les moteurs de recherche indexent tous les liens.
Vérifiez les différentes versions de vos URL pour n’en retenir qu’une seule. Vous avez la possibilité d’effectuer une redirection 301 depuis l’URL référencé vers les autres URL. Vérifiez également les versions HTTP et HTTPS de vos URL, normalement il doit n’y en avoir qu’une seule. Afin de vérifier quelle version de vos URL est indexée utilisez l’opérateur “SITE:” sur la barre de recherche du moteur.

Les redirections 301 et 302 :



Les redirections sont un outil très pratique pour gérer la disparition ou la mise sous maintenance de vos pages. Lorsque l’une de vos pages, qui est très bien référencée, disparaît, effectuez une redirection vers les pages mises à jour tout en conservant l’URL originel actif sur le moteur de recherche. Ainsi vous ne perdrez pas votre classement et vous serez en mesure de présenter votre contenu à vos internautes.
La redirection 301 est une redirection permanente.
La redirection 302 est une redirection temporaire, sollicitée dans le cas d’une maintenance de par exemple.

Les siteMap XML :



Le sitemap comme son nom l’indique, est un plan de votre site sous format XML, il liste l’ensemble des URL qui pointent vers les différents pages de votre site web. Il facilite la compréhension de votre site aux robots d’indexation et se trouve être très efficace dans le cas des sites massifs ayant un grand nombre de pages.



La vitesse est la clé :



Malgré le fait que l’importance de la vitesse de chargement ne soit plus à démontrer, bon nombre de webmaster négligent cet aspect qui impacte pourtant grandement le volume de trafic sur leur site.

Il est important de vérifier la vitesse de chargement de votre site que ce soit sur desktop, laptop ou encore Smartphone afin de vous assurer de la qualité de l’expérience utilisateur.

Structure de liaison interne :



Plus la structure de votre site web est claire, plus les robots d’indexation reconnaissent facilement le contenu sémantique de votre site. Les liens internes doivent permettre en quelques clics à n’importe quel internaute d’accéder au contenu qu’il souhaite. La classification de ces liens et leur clarté optimisera votre référencement et améliorera l’expérience utilisateur, augmentant ainsi la confiance de vos utilisateurs en votre site web.

Pour conclure, sachez que ce n’est pas le rôle de votre développeur de se soucier du référencement de votre site. Aussi il est fort peu probable qu’il soit formé pour effectuer les corrections nécessaires afin d’optimiser la visibilité de votre site sur les moteurs de recherche. Vous devez être formé aux techniques SEO pour superviser les manipulations, ou collaborer avec un expert SEO afin qu’il passe en revu tous les paramètres qui détermineront l’avenir de vos pages sur internet.